113 research outputs found

    Actes de conversation multimodaux et emotions

    No full text
    Programmation de la personnalité et des émotionsNational audienceCet article se place dans le cadre de dialogues entre un humain et un Agent Conversationnel Animé (ACA). Nous discutons ici de la nécessité de mettre en place un langage spécifique aux interactions entre l'homme et l'ACA, et du rÎle central que jouent les émotions au sein de ces interactions. Dans ce but, nous proposons une bibliothÚque d'actes de conversations multimodaux basée sur les actes de discours et l'expression des émotions liées aux actes. Nous nous intéressons plus particuliÚrement aux émotions dites complexes, résultant d'un raisonnement de l'agent. Ce langage de conversation multimodal sera le moyen pour l'ACA d'exprimer son intention communicative de façon multimodale : verbale et non verbale

    Cognition, Affects et Interaction

    No full text
    International audienceCet ouvrage rassemble les travaux d’études et de recherche effectuĂ©s dans le cadre du cours «Cognition, Affects et Interaction » que nous avons animĂ© au 1er semestre 2015-2016. Cette deuxiĂšme Ă©dition de cours poursuit le principe inaugurĂ© en 2014 : aux cours magistraux donnĂ©s sur la thĂ©matique "Cognition, Interaction & Affects" qui donnent les outils mĂ©thodologiques des composantes de l’interaction socio-communicative, nous avons couplĂ© une introduction Ă  la robotique sociale et un apprentissage actif par travail de recherche en binĂŽmes. Le principe de ces travaux d’études et de recherche est d’effectuer une recherche bibliographique et de rĂ©diger un article de synthĂšse sur un aspect de l’interaction homme-robot. Si plusieurs sujets ont Ă©tĂ© proposĂ©s aux Ă©tudiants en dĂ©but d’annĂ©e, certains binĂŽmes ont choisi d’aborder l’interaction avec un angle original qui reflĂšte souvent les trajectoires de formation variĂ©s des Ă©tudiants en sciences cognitives (ingĂ©nierie, sociologie, psychologie, etc). Le rĂ©sultat dĂ©passe nos espĂ©rances : le lecteur trouvera une compilation d’articles argumentĂ©s de maniĂšre solide, rĂ©digĂ©s de maniĂšre claire et prĂ©sentĂ©s avec soin. Ces premiĂšres «publications» reflĂštent les capacitĂ©s singuliĂšres de rĂ©flexion de cette promotion en nette augmentation par rapport Ă  l’annĂ©e prĂ©cĂ©dente. Nous espĂ©rons que cette sĂ©rie d’ouvrages disponibles sous HAL puisse servir de point d’entrĂ©e Ă  des Ă©tudiants ou chercheurs intĂ©ressĂ©s Ă  explorer ce champ de recherches pluri-disciplinaire

    Artificial Companion: building a impacting relation

    No full text
    International audienceIn this paper we show that we are in front of an evolution from traditional human-computer interactions to a kind of intense exchange between the human user and new generation of virtual or real systems -Embodied Conversational Agents (ECAs) or affective robots- bringing the interaction to another level, the "relation level". We call these systems "companions" that is to say systems with which the user wants to build a kind of life- long relationship. We thus argue that we need to go beyond the concepts acceptability and believability of system to get closer to human and look for "impact" concept. We will see that this problematic is shared between the community of researchers in Embodied Conversational Agents (ECAs) and in affective robotics fields. We put forward a definition of an "impacting relation" that will enable believable interactive ECAs or robots to become believable impacting companions

    Des Styles pour une Personnalisation de l'Interaction Homme-Robot

    No full text
    Les robots compagnons sont des robots personnels qui ont pour objectif d’accompagner l’utilisateur dans ses activités de la vie quotidienne. Nous nous intéressons pour notre part aux enfants, accompagnés par un robot dans différentes situations : travail scolaire, réconfort, jeu, protection,...L’acceptabilité de ces robots compagnons dans le quotidien est questionnée dans de nombreux travaux ; elle est liée à son apparence physique, son utilité, sa facilité d’utilisation mais aussi à d’autres critères qu’il reste à étudier. Un des défis dans la conception de tels robots est de les doter de réelles compétences sociales de perception, de raisonnement et d’action lors de leurs interactions avec l’utilisateur. La recherche dans le domaine de l’interaction humain- robot se tourne ainsi de plus en plus vers les travaux en Informatique Affective (Affective Computing) pour concevoir des robots personnels plus sociaux, l’émotion étant une dimension centrale dans les interactions.D’autres dimensions comme la confiance, la légitimité ou encore la crédibilité du compagnon sont importantes pour leur acceptabilité. Des travaux ont proposĂ© l’idée d’un compagnon ”polyvalent” capable d’endosser de multiples rôles et de s’adapter en fonction des besoins de l’utilisateur et en fonction du contexte de la situation. La Théorie du Compagnon présentée soulève la question des différences entre individus influençant la qualité de l’interaction et la construction d’une relation entre le compagnon et l’utilisateur. Ce travail sur la personnalisation des robots a pour but de créer de la valeur, en particulier pour des parents souhaitant un robot compagnon pour leur enfant, en accord avec leurs propres attentes

    Increasing communication between a man and a dog

    No full text
    International audienceIn this paper, we present the first results we have concerning our ongoing work on a robotic system embedded on a dog to enrich communication. Two problems are addressed here: How to keep control of a dog when the human does not see it? For dog trained to do some specific activities in particular situation, how to detect this activity? We present here results on controlling the dog by an embedded voice and a real-time recognition of some activities of the dog : walk, seat, run, lying

    A Review on Learning Planning Action Models for Socio-Communicative HRI

    No full text
    National audienceFor social robots to be brought more into widespread use in the fields of companionship, care taking and domestic help, they must be capable of demonstrating social intelligence. In order to be acceptable, they must exhibit socio-communicative skills. Classic approaches to program HRI from observed human-human interactions fails to capture the subtlety of multimodal interactions as well as the key structural differences between robots and humans. The former arises due to a difficulty in quantifying and coding mul-timodal behaviours, while the latter due to a difference of the degrees of liberty between a robot and a human. However , the notion of reverse engineering from multimodal HRI traces to learn the underlying behavioral blueprint of the robot given multimodal traces seems an option worth exploring. With this spirit, the entire HRI can be seen as a sequence of exchanges of speech acts between the robot and human, each act treated as an action, bearing in mind that the entire sequence is goal-driven. Thus, this entire interaction can be treated as a sequence of actions propelling the interaction from its initial to goal state, also known as a plan in the domain of AI planning. In the same domain, this action sequence that stems from plan execution can be represented as a trace. AI techniques, such as machine learning , can be used to learn behavioral models (also known as symbolic action models in AI), intended to be reusable for AI planning, from the aforementioned multimodal traces. This article reviews recent machine learning techniques for learning planning action models which can be applied to the field of HRI with the intent of rendering robots as socio-communicative

    Une approche totalement instanciée pour la planification HTN

    No full text
    International audienceDe nombreuses techniques de planification ont etĂ© dĂ©veloppĂ©es pour permettrĂš a des syst emes autonomes d'agir et de prendre des dĂ©cisions en fonction de leurs perceptions de l'environnement. Parmi ces techniques, la planification HTN (Hierarchical Task Network) est l'une des techniques les plus utilisĂ©es en pratique. Contrairement aux approches classiques de la planifi-cation, la planification HTN fonctionne par dĂ©composition rĂ©cursive d'une tĂąche complexe en sous tĂąches jusqu'` a ce que chaque sous-tĂąche puissĂȘ etre rĂ©alisĂ©e par l' exĂ©cution d'une action. Cette vision hiĂ©rarchique de la planification permet une reprĂ©sentation plus riche desprobĂŹ emes de planification tout en guidant la recherche d'un plan solution et en apportant de la connaissance aux algorithmes sous-jacents. Dans cet article, nous proposons une nouvelle approche de la planification HTN dans laquelle, comme en planification classique, nous instancions l'ensemble des opĂ©rateurs de planification avant d'effectuer la recherche d'un plan solution. Cette approche a fait ses preuves en planification clas-sique. Elle est utilisĂ©e par la plupart des planificateurs contemporains mais n'a, ` a notre connaissance, jamais etĂ© appliquĂ©e dans le cadre de la planification HTN. L'instanciation des opĂ©rateurs de planifica-tion est pourtant nĂ©cessaire au dĂ©veloppement d'heuristiques efficaces et a l'encodage deprobĂŹ emes de planification HTN dans d'autres formalismes tels que SAT ou CSP. Nous prĂ©sentons dans la suite de l'article un mĂ©canisme gĂ©nĂ©rique d'instanciation. Ce mĂ©canisme implĂ©mente des techniques de simplification permettant de rĂ©duire la complexitĂ© du processus d'instanciation inspirĂ©es de celles utilisĂ©es en planification classique. Pour finir nous prĂ©sentons des rĂ©sultats obtenus sur un ensemble deprobĂŹ emes issus des compĂ©titions internationales de planification avec une version modifiĂ©e du planificateur SHOP utilisant notre technique d'instanciation

    Interaction affective et expressive. Compagnon artificiel-humain

    Get PDF
    Le but de ce travail de thĂšse est de rendre sincĂšre un Agent Conversationnel AnimĂ© (ACA) pour, d'une part, amĂ©liorer sa crĂ©dibilitĂ© du point de vue de l'humain, et d'autre part contribuer Ă  le rendre acceptable dans une relation privilĂ©giĂ©e compagnon artificiel - humain. La premiĂšre partie de ce travail consiste en la crĂ©ation d'un Langage de Conversation Multimodal (LCM) pour ACA, constituĂ© d'Actes de Conversation Multimodaux (ACM) tels que promettre, s'excuser ou exiger : ces ACM permettent Ă  l'agent d'ĂȘtre crĂ©dible dans sa sincĂ©ritĂ©, en exprimant multimodalement ses Ă©tats mentaux de façon appropriĂ©e. Les Ă©tats mentaux portĂ©s par les ACM sont formalisĂ©s en logique : la volontĂ© de reprĂ©senter des Ă©tats mentaux issus de raisonnements complexes (basĂ©s d'une part sur le raisonnement contrefactuel et d'autre part sur les normes et les buts de l'agent), dont l'expression se fait avant tout par le langage (Oatley 1987), a amenĂ© Ă  mettre en place le modĂšle BIGRE (Beliefs, Ideals, Goals, Responsibility, Emotions). Ce modĂšle, basĂ© sur une logique de type BDI (Belief, Desire, Intention), permet de reprĂ©senter Ă©galement des Ă©motions que nous appelons complexes, telles que la rĂ©jouissance, la gratitude ou le regret. La catĂ©gorie expressive des ACM contient les actes exprimant ces Ă©motions complexes (e.g. remercier, regretter) : l'expression se fait par le langage, conjointement aux autres expressions multimodales appropriĂ©es. Le LCM est implĂ©mentĂ© dans l'ACA Greta, ce qui permet une Ă©valuation de ce langage en termes de crĂ©dibilitĂ© et de sincĂ©ritĂ© perçues par l'humain. La deuxiĂšme partie de ce travail porte sur les capacitĂ©s de raisonnement de l'ACA : dans le but de permettre Ă  l'agent de raisonner dans le dialogue, c'est-Ă -dire mettre Ă  jour ses Ă©tats mentaux et ses Ă©motions et sĂ©lectionner son intention communicative, un moteur de raisonnement a Ă©tĂ© mis en place. Ce moteur de raisonnement est basĂ© sur le cycle de comportement BDI - Perception, DĂ©cision, Action - et les opĂ©rateurs du modĂšle BIGRE, permettant ainsi la manipulation d'Ă©tats mentaux issus de raisonnements complexes (dont les Ă©motions complexes). Les ACM qui composent notre langage sont intĂ©grĂ©s dans le moteur, et sont utilisĂ©s pour atteindre l'intention communicative de l'ACA : par exemple, si l'agent a l'intention d'exprimer sa gratitude, il construit un plan pour satisfaire son intention, formĂ© des ACM remercier ou fĂ©liciter, selon le degrĂ© de l'Ă©motion. Un type d'intention communicative, dĂ©clenchĂ© par des rĂšgles d'obligation du discours, participe Ă  la rĂ©gulation locale du dialogue. L'ACA Ă©tant de plus affectif, sa sincĂ©ritĂ© l'amĂšne Ă  exprimer toutes ses Ă©motions. La gĂ©nĂ©ricitĂ© de ce moteur de raisonnement permet de l'implĂ©menter dans l'ACA Greta (oĂč il est en lien avec le LCM) et dans l'agent MARC. L'expression multimodale des ACM avec l'agent MARC a Ă©tĂ© rendue possible par l'intĂ©gration des checks de Scherer dans le moteur de raisonnement que nous avons adaptĂ© au contexte du dialogue. Une Ă©valuation du moteur de raisonnement avec l'agent MARC montre que les Ă©tats mentaux dĂ©duits par le moteur sont appropriĂ©s Ă  la situation, et que leur expression (l'expression de la sincĂ©ritĂ© de l'agent) est Ă©galement appropriĂ©e.The aim of this thesis is to make an Embodied Conversational Agent (ECA) sincere in order to, on one hand, improve its believability from the human's point of view, and on the other hand make it acceptable in an affective relationship between an artificial companion and a human. The first part of this work consists in creating a Multimodal Conversation Language (MCL) for an ECA, made up of Multimodal Conversation Acts (MCA) such as promise, apologise or demand. These MCA allow the agent to appear believable in its sincerity, by multimodally expressing its mental states in an appropriate way. The mental states carried by the MCA are formalised in logics: our will to represent mental states stemming from complex forms of reasoning (based on counterfactual reasoning or on the agent's norms and goals) that are mainly expressed via language (Oatley 1987) led us to design the BIGRE model (Beliefs, Ideals, Goals, Responsibility, Emotions). This model, based on a BDI-like logic (Belief, Desire, Intention), allows us to also represent some particular emotions that we call complex emotions, such as rejoicing, gratitude or regret. The expressive category of MCA contains acts that express these complex emotions (e.g. thank, regret): they are expressed by the language, along with the other appropriate multimodal expressions. We implemented the MCL in the ECA Greta, which enabled an evaluation of this language in terms of believability and sincerity perceived by the human. The second part of this work is about the ECA's reasoning capabilities: in order to allow the agent to reason in the dialogue, that is to update its mental states and its emotions and select its communicative intention, we designed a reasoning engine. This reasoning engine is based on the BDI behaviour cycle of Perception - Decision - Action and on the operators from the BIGRE model, thus enabling the manipulation of mental states resulting from complex reasoning (including complex emotions). The MCA in our language are part of our reasoning engine, and are used to achieve the ECA's communicative intention: for example if the ECA intends to express its gratitude, it builds a plan to achieve this intention, that consists of the MCA thank or congratulate, depending on the intensity of the emotion. One type of communicative intention, triggered by discourse obligations rules, participates in the local regulation of dialogue. Further, since the ECA is emotional, its sincerity brings it to express all its emotions. The generic character of this reasoning engine allowed us to implement it in the ECA Greta (where it is linked with the MCL) as well as in the agent MARC. The multimodal expression of MCA by the agent MARC was made possible by integrating Scherer's checks in the reasoning engine that we adapted to the context of dialogue. An evaluation of the reasoning engine with the agent MARC shows that the mental states deduced by the engine are appropriate to the situation, and that their expression (the expression of the agent's sincerity) is also appropriate.SAVOIE-SCD - Bib.Ă©lectronique (730659901) / SudocGRENOBLE1/INP-Bib.Ă©lectronique (384210012) / SudocGRENOBLE2/3-Bib.Ă©lectronique (384219901) / SudocSudocFranceF
    • 

    corecore